参考文章,感谢作者付出。
花书+吴恩达深度学习(一)前馈神经网络(多层感知机 MLP)
一句话:FNN=MLP=ndense=nrelu(Wx+b)
FeedForward
FNN FFN?傻傻分不清楚
前馈神经网络(feedforward neural network),又称作深度前馈网络(deep feedforward network)、多层感知机(multilayer perceptron,MLP)
每一个神经元由一个线性拟合和一个非线性激活函数组成
不同层之间就是全连接
我们的任务就是找到权值和偏置这些参数的值,使得输出的东西让我们满意,达到我们的要求。
我的理解是 输入经过一层(放大),然后在经过一层(缩小)
层的选择 $dense $还有 $conv1d$ 都有,和同学讨论,谷歌的transformer实现用的卷积,听说是卷积快一些。
MLP
多层感知器(MLP,Multilayer Perceptron)是一种前馈人工神经网络模型
也叫人工神经网络(ANN,Artificial Neural Network)
除了输入输出层,它中间可以有多个隐层,最简单的MLP只含一个隐层,即三层的结构
多层感知机层与层之间是全连接的(全连接的意思就是:上一层的任何一个神经元与下一层的所有神经元都有连接)
全连接层 dense
全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。
全连接层将权重矩阵与输入向量相乘再加上偏置
一维全连接
二维全连接层
dense( |